Lawrence Klein
经济研究的方法在于总结典型的经验特征与收集数据,并在此基础上建立相应的经济理论或经济模型。经济研究的科学性在很大程度上取决于经济理论或经济模型的可验证性,即能否通过数据实证检验相关的经济理论与经济模型来解释事实,并预测未来的经济变动趋势以及提供科学的政策建议。计量经济学和实验经济学则犹如硬币的双面,从不同的角度为经济学的实证分析提供重要的方法论基础。计量经济学以实际经济数据的建模与分析为主要研究对象。当实际数据不可得,或实际数据过于复杂而导致因果关系不易梳理时,实验经济学则有可能从另一个角度出发,通过可控的实验数据代替实际数据,成为实证经济分析的又一个有利工具。
计量经济学是由经济学、统计学、数学、计算机科学等学科交叉产生而又独立于其中任何一个学科。计量经济学产生于对经济理论的实证分析,经济系统的建模和国民经济投入产出法的计算等经济学问题,经过近一个多世纪的发展,已经成为了一个成熟而且被广泛运用的学科。计量经济学可以分为理论计量经济学和应用计量经济学。其中理论计量经济学主要关注计量经济模型的建立,包括针对不同数据类型、随机实验和不可控随机误差的分布形式、经济学模型和实际问题而进行的假设,从而对该模型进行参数、非参数等的估计、统计推断和预测,并给出其具体的理论性质,例如无偏性,渐进分布、统计有效性、预测误差等等。应用计量经济学则侧重于实际问题,其内容基本涵盖凡是有数据支持的经济学理论的各个分支,并用经济数据来对经济理论进行检验,或是对某些经济变量的因果关系进行量化研究,或是利用金融数据进行风险估计等实证研究。例如对环境经济学、教育经济学、金融经济学、国际贸易理论、经济增长理论等都可以通过数据进行实证分析,在计量经济学理论的指导下进行计算。计量经济学的理论研究和实证分析相辅相成,对现实生活中某种类型经济数据的实证分析往往成为发现理论研究新方向的动力,同时理论研究的成果也通过计量模型被广泛应用到各种实际问题中去。
计量经济学是现代经济学理论体系的一个核心组成部分,可以说如果没有计量经济学,经济学理论就像纯数学理论一样只有象牙塔式的研究价值而不能被数据所证实或者应用证伪。在过去的诺贝尔经济学奖获奖人当中,第一届诺贝尔经济学奖就授予了两位计量经济学研究的先驱弗利希(Ragnar Frisch, 1969)和丁伯根(Jan Tinbergen, 1969),表明了计量经济学在推动整个经济学研究科学化进程中的重要性。早期因从事计量经济学研究而荣膺诺贝尔经济学奖的还包括李昂惕夫(Wassily Leontief, 1973)、克莱因(Lawrence R. Klein, 1980)和哈维尔莫(Trygve Haavelmo, 1989)等。计量经济学的发展日益与经济学各分支学科的发展紧密结合,并反过来极大促进了经济学各分支学科的发展。诺贝尔经济学奖获得者麦克法登(Daniel L. McFadden, 2000)、赫克曼(James Heckman, 2000)、格兰杰(Clive W.J. Granger, 2003)、恩格尔(Robert F. Engle, 2003)与汉森(Lars Peter Hansen, 2013)都是因为提出新的计量方法促进了劳动经济学、产业经济学、宏观经济学、金融学等相关经济学分支学科的发展而获此殊荣。在现代经济学的教学与研究体系中,计量经济学已经成为与微观经济学、宏观经济学并列的三大学科,成为经济学各分支学科最核心的方法论基础。(一)面板数据计量经济学面板数据(panel data)是将截面数据和时间序列数据综合起来的一种新的数据类型。和单一的时间序列数据相比,面板数据能够提供不同个体在同一时点的横截面信息;和纯粹的截面数据相比,面板数据又能够提供同一个体在不同时间点的动态变化。因此,和传统的横截面模型与时间序列模型相比,面板数据模型在模型估计、假设检验和管理科学应用等方面具有明显的优势。国内外高质量面板数据的出现极大推动了面板数据计量经济学的发展,在宏观经济学和应用微观计量经济学等各个领域都有非常重要的应用。面板数据计量经济学的最新发展主要集中在三个部分,其一是非线性面板数据建模的发展,包括各类非参数半参数条件均值模型、条件分位数模型和离散数据模型等。函数系数模型(Cai et al., 2000; Cai et al., 2000)采取可加模型的形式,解释变量的系数可以是其他随机变量的函数(称之为光滑变量,smoothing variable),而光滑变量的选择由经济理论决定。函数系数模型不仅能够提供更好的数据模拟能力,而且在非参数模型中融入了经济学的解释,因而近年来有不少研究将函数系数模型结合到面板数据中。其二是非平稳面板数据模型的发展,包括面板数据单位根检验与协整分析,以及包含非平稳变量和未知时间趋势的估计与检验等;其三是包含横截面相关(cross-sectional dependence)的面板数据建模。面板数据通常包含两个维度,行为个体与时间维度。行为个体可以是微观层面的家庭、个人或企业,也可以是宏观层面的国家、产业或地区。传统的面板数据建模通常假设面板数据各行为主体之间是完全独立的(横截面独立假设,cross-sectional independence),这就完全排除了行为个体之间可能存在的相互影响,从而导致模型估计与检验的一系列问题。横截面相关性已成为面板数据领域最为活跃的科研方向之一。目前文献中处理横截面相关的方法主要有三种:其一是通过因子模型(factor model)描述横截面相关性,然后通过模型中可观测变量的横截面平均作为因子模型中不可观测的共同因子的代理变量,用以解决因共同因子不可观测性而带来的内生性问题(Pesaran, 2006; Pesaran & Tosetti, 2011等);其二是交互效应(interactive effect)模型,通过PCA的方法直接估计不可观测的共同因子(common factor)与因子系数(factor loading),通常使用的估计方法包括QMLE和最小二乘法(Bai, 2009, 2013等);其三是使用一系列距约束条件描述横截面弱相关性,不需要借助于常见的因子结构(Chen et al., 2012等)。最近几年,这一领域的发展主要集中在将横截面相关性与半参数或非参数模型相结合,研究模型的估计与检验方法,这也是目前最为活跃的研究领域之一。(二)微观计量经济学与政策评估因果分析与政策效应评估是经济分析最为关注的核心问题,其主要难点在于经济事件与经济政策的内生性问题,以及虚拟事实的不可观测性。社会经济系统作为一个有机的整体,各类因素各种事件往往存在复杂的相互联系。由于巨大的社会成本与经济成本,社会经济政策无法使用类似于自然科学中常用的模拟实验的方法。为了解决内生性问题,经济分析通常借助于所谓的“准实验”(quasi-experiment)机会,使用工具变量方法,以及在工具变量方法上发展起来的一系列估计政策处理效应(treatment effect)的方法。工具变量必须同时满足相关性与外生性的要求。所谓相关性,是指工具变量必须与内生的结构变量高度相关,否则便称之为弱工具变量(weak instruments)。所谓外生性,是指工具变量仅通过内生的结构变量影响回归模型中的被解释变量,而不存在其他独立的影响渠道。九十年代中期以来,计量经济学家发现当存在弱工具变量的情况下,无论是小样本还是大样本,常见的工具变量估计方法,包括两阶段最小二乘估计与有限信息最大似然估计都无法得到一致性的估计量。这一时期大量的研究主要集中在工具变量质量的检验,以及存在弱工具变量情况下不同的统计检验方法。最近十年中,计量经济学家更加关注工具变量的外生性问题,讨论在工具变量严格外生性条件无法满足的情况下对统计检验的影响。目前较有影响的做法是采用再抽样(resampling; Berkowitz et al., 2012)或贝叶斯的方法校正近似外生性的影响(Conley et al., 2012; Kraay, 2012)。随着大数据时代的来临,计量经济学家也开始关注在存在大量工具变量的情况下工具变量的选择问题。目前主要的做法分为两类,一类是在工具变量中加入稀疏性(sparcity)假设,采用LASSO等变量选择的方法在第一阶段选择有效的工具变量;另一类是不采取稀疏性假设,通过主成分分析或岭回归等降维的正则化(regularization)方法处理估计中的问题(Hansen et al., 2008; Okui, 2011; Carrasco, 2012; Hansen & Kozbur, 2014等)。当工具变量仅是简单的二元变量时,工具变量法就和政策处理效应的一系列估计方法建立了联系,这部分是近几年来发展最为迅速的研究领域之一。倍差法(difference in difference, Card & Krueger, 1994; Bertrand et al., 2004; Athey & Imbens, 2006等)是最为常见的处理效应估计方法。当某一经济政策实施以后,尽管我们可以同时观察到处理组中政策前后的变化,但这个变化同时包含了具体政策的处理效应和不可观测的时间趋势的变化。如果假设时间趋势在处理组和对照组的变化是相同的,那么我们可以采取两次差分的方式,将共同的时间趋势剔除出去,从而得到平均处理效应的估计值。倍差法的主要优势在于计算简便,可以接受某种形式的选择性误差(selection on unobservables),但主要问题在于处理组和对照组之间必须保持相同时间趋势的假设有时不符合现实,且较难检验。也有研究者发展一些半参数的倍差法试图放松相同时间趋势的假设(Abadie, 2005)。匹配(matching, Rubin, 1973)是另一种较为常见的处理效应的估计方法。和倍差法不同,使用匹配法的一个重要假设是条件独立性(conditional independence或unconfoundedness condition),是指在控制各种变量以后,处理效应的结果不再受到是否接受处理(treatment)的影响。在条件变量较多的情况下,事实上无法做到严格匹配,倾向匹配得分(propensity score)是用来处理降低匹配维度的主要方法,一些非参数方法也被广泛用来完成处理组和对照组之间的匹配(Heckman et al., 1997, 1998; Hahn, 1998; Hahn et al., 2000; Imbens, 2000; Lechner, 2002; Abadie&Imbens, 2006等)。当是否接受处理效应的概率成为一个非连续函数时,断点回归(regression discontinuity design, RDD; Trochim, 1984; Lee & Card, 2008等)成为近年来非常热门的估计“准实验”政策处理效应的方法。当选择变量(selection variable)与是否接受处理效应的关系是确定时,经济学家通常使用精确断点回归(sharp RDD)。当选择变量与是否接受处理效应存在随机关系时,也就是是否接受处理效应的同时受到一些不可观测的选择变量影响时,经济学家使用所谓的模糊断点回归(fuzzy RDD),这是一个类似于两步法处理工具变量的估计方法。除平均处理效应(average treatment effect on treated, ATET)之外,也有越来越多的文献在讨论局部平均处理效应(local average treatment effect, LATE, Imbens & Angrist, 1994等)、边际处理效应(marginal treatment effect, MTE)和分位数处理效应(quantile treatment effect)等。这些政策评估方法被广泛地用于各种社会经济政策的评估,如最低工资效应、反歧视法、失业救济等。(三)大数据(高维)计量经济学在目前大数据时代,数据的可得性和多样性导致样本量无限增大,同时变量个数无限增多,从而对分析大数据特点的计量经济学方法有了新的要求。例如,现在流行的电子购物数据中,每个消费者在电脑前点击的次数以及内容体现了丰富的反映购物行为的信息。又例如,许多人口普查数据、政策评估调查数据等等都有非常多的变量数目。另外,变量数目即使有限,因为研究模型不一定是线性形式,许多方程变换、级数展开等等处理方式也使得变量维度增加。从文本、视频、音频中提取有用变量等等方式也成为高维度数据的重要来源。一方面,数据本身的可得性增加,另一方面,现代高性能计算机群(HPC)的计算性能和存储功能也使得处理这些大数据成为可能。21世纪是大数据的世纪,云计算、存储等争相从科技领域进入人们日常生活中。高维度计量经济学就是研究经济变量数目非常大,有时候甚至大于样本量的情况。例如在资产定价的研究中,资产数目很大,有研究者(Fan et al., 2008)用因子模型去估计资产回报的相关性,其中资产回报的协方差矩阵的维度也随着样本量而增长,因此如何处理高维度数据在资产投资组合等领域是一个至关重要的问题。计量经济理论在处理高维度数据时,所面临的主要问题包括如何选择重要的变量以及如何对变量进行选择,以使得模型的预测性能更强,对模型的估计有更好的性质。在高维计量经济学建模中,一般假设真实模型只包括一部分有限的变量。高维度计量经济学包括了经典的线性和非线性非参数模型。在很多实证研究中,一般假设模型是一个比较简单的线性形式,变量是根据经验或者共识来选择。而高维度计量经济学的方法是通过数据本身来探究其重要性,从而进行变量选择。在经典岭回归思想的启发下,一系列带惩罚项的估计方法被提出并广泛应用在基因学、统计学、经济学等各学科中。例如套索估计量(LASSO, Frank & Friedman, 1993; Tibshirani, 1996)的先驱性研究首先提出用一个惩罚项加在经典的最小二乘损失函数上,再用一个调节参数来控制惩罚的力度。套索估计量可以在变量选择的同时进行参数估计,并且在变量个数较大的情况下解决了传统模型选择方法例如信息准则等的不可计算的问题,减小了模型选择的不确定性。套索方法有很多良好的性质,其中一个就是可以用来处理变量个数超过样本量的情况,并且能够选择变量。在过去的二十年中,高维度方法有了长足的发展。继套索估计量之后,SCAD估计量、Dantzig估计量、弹性网(Elastic Net)估计量等相继发表在顶尖统计学和计量经济学期刊中。在经济学中,高维度计量经济学的一个重要应用就是处理多工具变量选择的情况。Belloni, Chemozhukov & Hansen(2012)提出了用改进的套索方法选择工具变量的方法并提供了理论依据。另外,Bai & Ng(2008)用主成分分析,Caner & Fan(2015)用可适性套索方法进行工具变量的估计和选择。大数据计量经济学是一个方兴未艾的研究方向,统计学、计算机科学等其他学科的交叉发展也势必进一步推动大数据分析的发展。(四)金融计量经济学金融计量学主要是指对金融市场数据,包括金融市场各种交易变量(如价格、交易量、波动率等)进行相应统计分析和计量建模的学科。作为联接金融理论和实证证据的桥梁,金融计量学在现代金融学中处于一个非常重要的地位,它可以用于检验经济学假说和金融理论,解释金融现象,并对金融市场行为建模和预测。一方面,金融计量学的发展对现代金融和投资管理产生了深远的影响。另一方面,金融市场的进一步发展又对金融计量学的研究提出了新的挑战。金融计量学最早关注的一个问题是如何检验金融市场的有效性,即金融市场价格是否可以被预测。关于这个问题,最早的文献甚至可以追溯到Working(1934)和Cowles(1933, 1944)。他们主要通过检验股票价格序列是否服从随机游走过程来检验市场的有效性。Fama(1970)对有效市场理论和实证研究进行了一个很好的综述,他认为市场的有效性假设有三类,即弱有效,半强有效和强有效,而对应的价格走势往往只是一个鞅过程。这样说来,检验市场的有效性就等价于检验一个时间序列是否为鞅过程。Hong(1999)提出了一个基于广义谱函数的检验方法,非常有效地解决了这个问题。该方法不但能够捕捉变量之间存在的线性关系,同时也能够甄别出数据中的非线性关系,因此可被推广并应用来检验经济和金融时间序列数据是否存在相关关系或者是否独立,从而为对这些数据进一步分析建模提供依据(Hong & Lee, 2005, 2006; Hong & McCloud, 2011; Hong & Chen, 2011)。与金融市场有效性检验密切相关的一个研究领域是提出各种模型对金融时间数据进行预测,或者是对各种预测模型进行评价。这些预测模型大多基于各种经济学理论,包括行为经济学、实验经济学等。研究人员构造了不同的预测模型来对金融市场进行预测,例如Hong et al.(2007)研究了随机游走模型是否能够对外汇走势提供更好的样本外预测。Hong et al.(2010)也检验了多种时间序列模型在分析中国的短期利率走势的有效性。在有效市场理论检验问题之外,资产定价以及与之密切相关的投资组合理论一直也是金融计量学关注的一个重要问题。自Markowitz(1952)提出了投资组合理论以来,许多资产定价模型相继被提出来,包括Sharpe(1964)针对股票市场提出的资产定价模型(Capital Asset Pricing Model,CAPM),Ross(1976)提出的套利定价模型(APT),以及Heath et al.(1992)提出的针对固定资产收益证券定价的HJM模型。将这些定价理论模型应用到实践需要对相关的模型参数进行准确估计,而金融计量学家在这个过程中发挥了重要作用。一个最重要的估计方法即由2013年诺贝尔经济学奖得主Hansen(1982)提出的,Hansen & Singleton(1982)则将此推广应用到资产定价模型的动态广义矩方法(Dynamic GMM)。金融计量学关注的另一个重大问题是对波动率的建模,其中一个重要的原因是波动率被广泛认为是风险测度指标之一,但如何对风险进行有效管理的一个前提是对其进行准确建模。最早的波动率模型包括Engle(1982)提出的ARCH模型以及Taylor(1982)提出的随机波动率模型(stochastic volatility model),Bollerslev(1986)进一步发展了GARCH模型。基于这些模型,一些重要问题相继得到研究,比如波动率溢出效应(Hong, 2001)、金融风险的传染(Hong et al., 2009)等。随着金融市场的进一步发展,交易日趋复杂,一些新的问题随之出现并急需解决。比如说在高频数据的建模中,如何处理市场微观噪音及市场由于一些突发事件带来的跳跃现象是金融计量学关注的另一个重点,相关的文献包括Chan & Maheu(2002)和Ait-Sahalia & Jacod(2009)。而对金融市场中一些非线性和非对称的现象进行研究也成为一个重要研究方向。比如说在考虑非线性情况下,如何检验市场的有效性,如何对资产定价模型进行稳健、准确的估计等。此外,人们观察到金融数据普遍呈现厚尾现象,正态分布不再适用于刻画这些数据,在这种情况下,评价极端风险(extreme risk)不可以再用方差来度量。所以,当分布存在厚尾时,如何来度量风险(包括系统性风险)依然是金融计量学关注的重要问题之一。(五)动态一般均衡模型的宏观计量经济学传统实证宏观计量经济学用向量自回归等方法对总体经济变量例如总产出、总消费、总投资、失业率、通胀率等进行分析,其思想起源于凯恩斯经济学。而真实经济周期模型往往通过模型校准来描述实体经济,在量化研究方面其方法显得更为严格。动态一般均衡模型则是从宏观经济的微观基础出发,从消费者、生产者、中间厂商和政府部门等的动态最优化决策过程来推导一般均衡结果。用动态随机一般均衡模型可以增强模型的解释力和经济学含义,并使得过去宏观经济学和微观经济学的两分法问题得到解决。通过计量经济模型的估计和推断使我们对宏观变量的随机过程得以加深了解,并对模型本身的有效性进行评估。在过去的三十多年中,从宏观经济学的微观基础出发,研究利率、失业率等宏观变量成为实证宏观计量经济学的新范式。从政策制定者的角度来说,欧洲中央银行也正式使用动态一般均衡模型作为基础模型并把其预测结果作为指定货币政策的一个重要的参考指标。尽管在宏观经济学中,不少变量通过加总去掉了很多噪声,向量自回归等传统方法在预测性能上优于以微观基础起步的宏观计量模型,但微观结构模型方面的研究在逐渐放松假设、贴近实体经济方面也有了长足进步。目前以似然函数方法为基础的动态随机一般均衡模型在样本外预测上的表现可以和向量自回归等方法相比较。动态随机一般均衡模型从个人、厂商、政府、中央银行等分别最大化其全部时间段内的效用、利润及财政、货币政策目标(例如弥补产出缺口、保持产出增长率等),得到消费、产出、利率和通货膨胀率等变量需满足的最优化条件,再由市场一般均衡的条件推导出欧拉公式,用对数线性化的方法得到简化式和状态空间形式。动态随机一般均衡模型通过引入外部冲击来模拟现实经济中的经济周期和日常波动。外部冲击可以有多种形式,例如生产技术冲击、需求冲击、财政支出冲击、货币政策冲击、外贸冲击等,通过这些外部冲击得到模型的随机性。另外,通过引入工资、价格粘性、消费习惯形成和投资调整成本等假设,模型也更加接近现实经济。在模型的估计方面,动态一般均衡模型多采用贝叶斯方法进行估计,由前面一般均衡条件得到的公式加上测度方程,即引入经济系统中的随机冲击,得到似然函数。首先通过把均衡条件进行对数线性化,然后用蒙特卡洛马尔科夫链抽样方法估计模型参数。根据模型参数设定的不同,可能出现为一解、无解或多解的情况,研究者要对其进行分析或者约束。近年来动态随机一般均衡模型在计算和引入新的冲击、放宽模型假设(例如允许厂商和消费者的异质性)等方面有很多进展。进一步放宽模型的假设,减少模型校准和更好地估计高阶非线性模型从而最终提高模型的预测能力是该方法未来需要解决的问题。
注本文作者:洪永淼 方 颖 陈海强 范青亮 耿 森 王 云(WISE)